【確定開課】資策會10/19「Big Data之處理與分析進階班」
資策會將於2013年10月19日開辦「Big Data之處理與分析進階班」課程,本課程學員將學習到雲端運算之三大關鍵技術,利用Hadoop之分散式檔案系統(HDFS)與MapReduce,快速建構出雲端運算的執行環境和服務,並以Hadoop FileSystem API 實作、MapReduce API 實作、MapReduce 與資料庫結合與MapReduce 與 Hadoop 生態系整合等實作方式讓學員更加了解如何透過Hadoop架構以進行雲端資料的大量資料處理、分析與應用。
雲端運算掀起了新一代的資訊革命,也帶來了資訊爆炸式的成長,市調單位IDC的研究報告指出:自2010年全球資料量已進入ZB(zettabytes,1 ZB 為1兆GB)時代,並且每年以60%的速度攀升,這意味著每18個月全球的資料量將翻倍。面對不斷擴張的驚人資料量,大量資料 (Big Data) 的儲存、管理、處理、搜尋、分析與智能應用等處理資料的能力也將面臨新的挑戰,而處理資料的技術將迫切需要可動態與彈性等特點,以支援大量資料處理的計算模式。
工欲善其事,必先利其器,根據市場調查機構IDC的研究顯示,Hadoop 軟體市場的復合年增長率超過了60%,並預測到了2016年,市場總值將由2011年的7700萬美元增長至8.128億美元,可見得Hadoop火熱的程度。巨量資料寶庫蘊藏豐沛的珍寶,除了幾乎成為巨量資料代名詞的Hadoop外,相同框架裡頭的 MapReduce、HDFS等技術,皆為意欲挖掘出這些寶藏之企業所需準備的工具,意欲開啟巨量資料希望之門,幾乎可以肯定,絕對少不掉Hadoop這把鑰匙!
為了解決巨量資料的問題,Hadoop 周遭已經發展出相當完整的生態系,其中有兩個最為核心的項目,一是MapReduce這個執行分散式處理的程式模型,另一則是HDFS這個虛擬的分散式檔案系統,透過專司運算、儲存的兩根大支柱,牢牢地撐起Hadoop架構。且基於map/reduce的演算,Hadoop可以利用分散式節點的增加,來持續提供更多的計算能力,因此具備了很好的規模可擴充性。
資策會「Big Data之處理與分析進階班」課程於2013年10月19日確定開課,相關資訊請參閱課程網頁,
或電(02)6631-6533,黃小姐。
課程網址: http://www.iiiedu.org.tw/ites/CBDA.htm